ÆÄÀ̽ã À̾ Áú¹®ÀÌ ÇÑ°¡Áö ÀÖ½À´Ï´Ù..

   Á¶È¸ 3530   Ãßõ 0    

자료를 최종적으로 csv파일이나 엑셀형태로 내보내고싶은데요.

아래와같이 프로그래밍 했을때 엑셀형태로 내보내기위한 명령어 사용이 안됩니다...


최종 적으로 원하는 데이터 형태는 아래와 같습니다..

Date              Price

2018.3.20       25000

2018.3.22       26400




import requests 

import csv   

from bs4 import BeautifulSoup 

import pandas as pd

code="105560"

url = "http://hkconsensus.hankyung.com/apps.chart/chart.chartList?callback=jQuery112406638263512384042_1563692725032&report_type=CO&business_code=%s&_=1563692725033" %code

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'} 

html = requests.get(url,headers = headers).text 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]

print(strdata)



일단 위와같이 코딩을한 배경을 간단히 말씀드리자면



>>> soup

jQuery112406638263512384042_1563692725032([[Date.UTC(2008,9,11),47000],

[Date.UTC(2008,9,14),50700],

[Date.UTC(2008,9,15),53100],

[Date.UTC(2008,9,16),51000],

....

[Date.UTC(2019,6,26),44150],

[Date.UTC(2019,6,27),43800]])


위와같이 첫줄과 막줄에 불필요한 문자들이 포함되어있어 이를 제거하기 위해 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

스트링 처리를하고

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]


([기호 앞부분과 ])기호 뒷부분을 제거하여 strdata에 저장하였습니다.

그 결과 이게 pandas를 이용해 to_csv를 이용하기가 어려워졌습니다....


엑셀이나 CSV에 

Date              Price

2018.3.20       25000

2018.3.22       26400

이런식으로 결과가 입력되기만 하면되는데....기본이 없으니 삥삥 돌고있습니다....

혹시 가능하시면 도움을 좀 부탁드립니다.

ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
chis 2019-07
µ¥ÀÌÅ͸¦ º¸´Ï±î ÁÖ½Ä µ¥ÀÌÅÍ°°Àºµ¥¿ä Á¦ »ý°¢¿¡´Â ÀÌÂü¿¡ ÇÁ·Î±×·¡¹ÖÀ» Á» °øºÎÇϽðí Â÷±ÙÂ÷±Ù ºÎµúÇô°¡¸é¼­ ±â´ÉÀ» ±¸ÇöÇغ¸½Ã´Â°Ô
ÁÁÀ»°Å°°½À´Ï´Ù. ÀÀ´äµÈ µ¥ÀÌÅ͸¦ º¸¸é ¿ùÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 0¿ùµµ ÀÖ°í ÀÏ ÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 32ÀÏÀ̶ó°í ÀûÈù°÷µµ ÀÖ¾î¿ä..
ÀÌ·±°Å±îÁö ÀüºÎ ±³Á¤ÇؾßÇÒÅÙµ¥ ÀÌ·±°É ÀÏÀÏÀÌ ´Ù ¾Ë·Áµå¸±¼ö´Â ¾øÁö ¾ÊÀ»±î¿ä?
ÀÏ´Ü ¿Ã¸®½Å ¼Ò½º¿¡¼­´Â ÀÀ´äµÈ µ¥ÀÌÅ͸¦ bs4·Î °¥ ÇÊ¿ä ¾øÀÌ  .text·Î ÆĽÌÇÑ°Å ±×´ë·Î ¾²½Ã¸é µÉ°Å°°°í¿ä.
ÀÀ´äµÈ µ¥ÀÌŸ°¡ Á» ÁöÀúºÐÇÑ ±¸Á¶¶ó¼­ Á¤±ÔÇ¥Çö½ÄÀ» Á» ÀÍÈ÷¼Å¾ßÇÒ°Å°°½À´Ï´Ù.
±×¸®°í csv·Î ÀúÀåÇÒ¶§´Â pandas±îÁö ¾²½Ç ÇÊ¿ä ¾ø°í ±×³É import csvÇؼ­ »ç¿ëÇϼŵµ ¹«¹æÇÒµíÇÏ°í¿ä.
     
´ä±Û °¨»çµå¸³´Ï´Ù^^
¸»¾¸Ã³·³Á¶±Ý¾¿ °øºÎÇϸ鼭 °¡°íÀÖ½À´Ï´Ù. Á¶±ÞÇÔ ¶§¹®ÀÌÁö¿ä ¤¾¤¾¤¾

¸»¾¸ÇØÁֽŰÍó·³ .textÆĽÌÇÑ°Í ±×´ë·Î °¡µµ ±¦Âú³×¿ä~!
Çåµ¥ Á¦°¡ Àß ¸ð¸£´Â°Í °°Àº°ÍÀÌ csv³ª ¿¢¼¿ÇüÅ·Π³»º¸³¾¶§ ÀÚ·áÇüÀÌ ¾î¶²°ÍÀ̾î¾ß Çϳª¿ä?
¾ÕµÚ¿¡ÀÖ´Â ºÒÇÊ¿äÇÑ ºÎºÐÀ̳ª. [,]()¿Í °°Àº ºÒÇÊ¿äÇÑ ±âÈ£¸¦ ¾ø¾Ö·Á°í strÀÚ·áÇüÀ¸·Î ¹Ù²Ù¾ú´õ´Ï
³ªÁß¿¡ csv·Î ³»º¸³»µµ ÇÑÀÚÇÑÀÚ ¼¿À» ¹Ù²ã ÀúÀåÀÌ µÇ³×¿ä ¤¾¤¾¤¾
´Ù½Ã ÀÚ·áÇüÀ» ¹Ù²Ù¸é µÉ±î¿ä??
          
chis 2019-07
import csvÇؼ­ csvÀúÀåÇϴ°Ŵ writerow·Î ÇÑÁÙ¾¿ ¸®½ºÆ®ÇüÅ·ΠÀÔ·ÂÇÏ¸é µé¾î°©´Ï´Ù.
¿¢¼¿·Î »ÌÀ»·Á¸é  pip·Î ¿ÜºÎ ¸ðµâÀ» ºÒ·¯´Ù°¡ ½á¾ßÇϴµ¥ ÀÌ°Ô ¸ðµâ¸¶´Ù »ç¿ë¹ýÀÌ ´Ù¸£´Ùº¸´Ï ±×³É csv·Î ÀúÀåÇÏ´Â°Ô ÆíÇҰŶó°í »ý°¢µË´Ï´Ù.
ÆÄÀ̽ãÀ¸·Î µ¥ÀÌŸ¸¸ ½ºÅ©·¡ÇÎÇؼ­ ¿¢¼¿¿¡ ºÒ·¯³õ°í ¸Õ°¡ ÀÛ¾÷À» ÇϽǷÁ´Â°Å°°Àºµ¥ ÆÄÀ̽ãÀ» Á» ´õ ÀÍÈ÷¼Å¼­ ¿¢¼¿À» ÀÌ¿ëÇÏÁö ¾Ê°í ó¸®Çϴ°Ô
¼Óµµ¸é¿¡¼­µµ ±â´É¸é¿¡¼­µµ ¿ùµîÇϸ®¶ó »ý°¢µË´Ï´Ù¸¸ database±îÁö °°ÀÌ ÀÍÈ÷¼Å¾ßÇÒ°Ì´Ï´Ù..


QnA
Á¦¸ñPage 1300/5700
2014-05   5051146   Á¤ÀºÁØ1
2015-12   1587418   ¹é¸Þ°¡
2020-04   3529   Äɸ®°Ç
2018-03   3529   ¹Îä
2017-05   3529   º¸°Å½º123
2017-03   3529   Æĸ®´ë¿Õ
2019-01   3529   ¼­¹ö±¸¸Ó
2018-02   3529   ½Å¿ì¼·
2017-03   3529   À¯Æ÷¸®¾Æ
2018-03   3529   ¹Ú¹®Çü
2020-02   3529   ¾Æ¸¶µ¥¿ì¾²
2018-03   3529   jore
2017-07   3529   µÑ°Çü´Ô
2019-07   3529   ±è°Ç¿ì
2016-03   3530   ¹ÚÁÖ¼º
2017-06   3530   ÀÚ¿¬ÀÎ
2016-03   3530   Lucifer
2017-04   3530   ±èµµÇü
2020-05   3530   BlueMooky
2015-04   3530   ½ÂÈĴϵµÄì
2018-01   3530   ¿Ã»©¹ÌÀá¿Í
2019-08   3530   ±æ°¡´ø´ººñ